Esses testes são frequentemente realizados para verificar suposições relativas a outros testes.
Basicamente, veremos três tipos de testes:
Teste para uma matriz de covariância específica,
Teste para igualdade de matrizes de covariâncias e,
Teste para independência de algumas variáveis aleatórias.
Na maioria dos casos, usamos a abordagem da razão de verossimilhança. As estatísticas de teste resultantes envolvem a razão dos determinantes da matriz de covariância amostral sob a hipótese nula e sob a hipótese alternativa.
Seja uma amostra aleatória \(\{\mathbf{x}_1, \mathbf{x}_2, \cdots, \mathbf{x}_n\}\), de tamanho \(n\), de uma \(N_p(\mathbf{\mu}, \mathbf{\Sigma})\).
Suponha que o vetor de médias \(\mathbf{\mu}\) seja desconhecido e que desejamos testar as seguintes hipóteses:
\[H_0: \mathbf{\Sigma} = \mathbf{\Sigma}_0 \hspace{0.5cm} \text{vs} \hspace{0.5cm} H_a: \mathbf{\Sigma} \neq \mathbf{\Sigma}_0\]
Para verificar se a matriz de covariâncias amostral \(\mathbf{S}\) é significativamente diferente de \(\mathbf{\Sigma}_0\), nós usamos a seguinte estatística de teste, que é uma modificação da razão de verossimilhança
\[u = (n-1)[\ln|\mathbf{\Sigma}_0| - \ln|\mathbf{S}| + \text{tr}(\mathbf{S}\mathbf{\Sigma}_0^{-1}) - p]\]
Se \(n\) é grande, tem-se que a estatística \(u\) possui assintoticamente distribuição qui-quadrado, sob \(H_0\), com \(f = \displaystyle{\dfrac{p(p+1)}{2}}\) graus de liberdade.
Para valores moderados de \(n\),
\[u´ = \left[ 1 - \dfrac{1}{6n - 7} \left( 2p + 1 - \dfrac{2}{p+1}\right)\right]u\]
é uma melhor aproximação para \(\chi^2_f\).
Dessa forma, podemos formular um teste de hipóteses
\[H_0: \mathbf{\Sigma} = \mathbf{\Sigma}_0 \hspace{0.5cm} \text{vs} \hspace{0.5cm} H_a: \mathbf{\Sigma} \neq \mathbf{\Sigma}_0\]
Ao nível de significância \(\alpha\), rejeitamos \(H_0\) em favor de \(H_a\) se observarmos
\[u (\text{ ou } u´) > \chi^2_f(\alpha)\]
\(\chi^2_f(\alpha)\) denota o \(100(1 − \alpha)\)-ésimo percentil superior de uma distribuição \(\chi^2_f\), sendo \(f = \displaystyle{\dfrac{p(p+1)}{2}}\) gl.
\[H_0: \mathbf{\Sigma} = \mathbf{\Sigma}_0 = \left[ \begin{array}{cccc} \sigma_{11} & 0 & \cdots & 0 \\ 0 & \sigma_{22} & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & \sigma_{pp} \end{array} \right] \]
\[H_0: \mathbf{\Sigma} = \mathbf{\Sigma}_0 = \left[ \begin{array}{cccc} \sigma^2 & 0 & \cdots & 0 \\ 0 & \sigma^2 & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & \sigma^2 \end{array} \right] = \sigma^2 \mathbf{I}\]
Exemplo 01 - Pardais sobreviventes a tempestades: Após uma forte tempestade em 1º de fevereiro de 1898, diversos pardais moribundos foram levados ao laboratório biológico de Hermon Bumpus na Universidade de Brown em Rhode Island.
Subsequentemente, cerca de metade dos pássaros morreu, e Bumpus viu isso como uma oportunidade de encontrar suporte para a teoria da seleção natural de Charles Darwin.
Para esse fim, ele fez oito medidas morfológicas em cada pássaro, e também os pesou. Os resultados de cinco das medidas são disponibilizados na base de dados Bumpus_sparrows, para fêmeas somente.
dados = read.csv("https://raw.githubusercontent.com/tiagomartin/est022/refs/heads/main/dados/Bumpus_sparrows.csv", sep = ',',check.names = F, stringsAsFactors = T) %>% filter(Sobrevivencia == "S") %>% dplyr::select(-c(Sobrevivencia))
dados %>% str()'data.frame': 21 obs. of 5 variables:
$ C_total_(mm) : int 156 154 153 153 155 163 157 155 164 158 ...
$ Extensao_alar_(mm) : int 245 240 240 236 243 247 238 239 248 238 ...
$ C_bico_cabeca_(mm) : num 31.6 30.4 31 30.9 31.5 32 30.9 32.8 32.7 31 ...
$ C_umero_(mm) : num 18.5 17.9 18.4 17.7 18.6 19 18.4 18.6 19.1 18.8 ...
$ C_quilha_do_esterno_(mm): num 20.5 19.6 20.6 20.2 20.3 20.9 20.2 21.2 21.1 22 ...
## Teste para uma covariância específica
#H0: Sigma = S0
S0 = matrix(c(11.0,9.0,1.5,0.8,1.3,
9.0,17.0,1.9,1.3,1.0,
1.5,1.9,0.5,0.2,0.2,
0.8,1.3,0.2,0.15,0.15,
1.3,1.0,0.2,0.15,0.6),ncol=5,nrow=5, byrow = T)
S0 [,1] [,2] [,3] [,4] [,5]
[1,] 11.0 9.0 1.5 0.80 1.30
[2,] 9.0 17.0 1.9 1.30 1.00
[3,] 1.5 1.9 0.5 0.20 0.20
[4,] 0.8 1.3 0.2 0.15 0.15
[5,] 1.3 1.0 0.2 0.15 0.60
Bartlett's Test for One Sample Covariance Matrix
Chi-Squared Value = 8.723529 , df = 15 and p-value: 0.926
## Teste de independência
#H0: Sigma = S0
S0 = matrix(c(11,0,0,0,0,
0,17,0,0,0,
0,0,0.5,0,0,
0,0,0,0.15,0,
0,0,0,0,0.6),ncol=5,nrow=5)
S0 [,1] [,2] [,3] [,4] [,5]
[1,] 11 0 0.0 0.00 0.0
[2,] 0 17 0.0 0.00 0.0
[3,] 0 0 0.5 0.00 0.0
[4,] 0 0 0.0 0.15 0.0
[5,] 0 0 0.0 0.00 0.6
Bartlett's Test for One Sample Covariance Matrix
Chi-Squared Value = 51.45842 , df = 15 and p-value: 3.9e-05
[,1] [,2] [,3] [,4] [,5]
[1,] 5.85 0.00 0.00 0.00 0.00
[2,] 0.00 5.85 0.00 0.00 0.00
[3,] 0.00 0.00 5.85 0.00 0.00
[4,] 0.00 0.00 0.00 5.85 0.00
[5,] 0.00 0.00 0.00 0.00 5.85
Bartlett's Test for One Sample Covariance Matrix
Chi-Squared Value = 182.9264 , df = 15 and p-value: <2e-16
Bartlett's Sphericity Test
Chi-Squared Value = 44.73381 , df = 10 and p-value: 2.43e-06
Correlation Matrix
C_total_(mm) Extensao_alar_(mm) C_bico_cabeca_(mm)
C_total_(mm) 1.0000000 0.6544674 0.6425068
Extensao_alar_(mm) 0.6544674 1.0000000 0.6263698
C_bico_cabeca_(mm) 0.6425068 0.6263698 1.0000000
C_umero_(mm) 0.6239195 0.7464418 0.6180476
C_quilha_do_esterno_(mm) 0.5103557 0.2774378 0.4336368
C_umero_(mm) C_quilha_do_esterno_(mm)
C_total_(mm) 0.6239195 0.5103557
Extensao_alar_(mm) 0.7464418 0.2774378
C_bico_cabeca_(mm) 0.6180476 0.4336368
C_umero_(mm) 1.0000000 0.4165447
C_quilha_do_esterno_(mm) 0.4165447 1.0000000
Considere amostras aleatórias \(K \geqslant 2\) populações normais \(p\)-variadas \(N_{p}({\mathbf{\mu}}_{k},\mathbf{\Sigma}_{k})\) de tamanho \(n_{k}\), \(k=1,...,K\).
A amostra da \(k\)-ésima população é dada por \(\mathbf{x}_{k1},\mathbf{x}_{k2},\cdots ,\mathbf{x}_{kn_{k}}\), em que \({\mathbf{x}}_{kj} \in \mathbb{R}^{p}\) corresponde à j-ésima unidade da k-ésima população.
Considere também que \(n = \displaystyle{\sum_{k=1}^{k}n_{k}}\).
Queremos testar a hipótese de homogeneidade sobre as covariâncias das \(k\) populações, ou seja, queremos testar
\[H_{0}:\mathbf{\Sigma}_{1} = \mathbf{\Sigma}_{2} = \cdots = \mathbf{\Sigma}_{k} = \mathbf{\Sigma}\]
Sejam
\[\hat{\mathbf{\Sigma}}_k = \displaystyle{\dfrac{n_k - 1}{n_k}} \mathbf{S}_k \text{ e } \hat{\mathbf{\Sigma}} = \displaystyle{\frac{\displaystyle{\sum_{k=1}^K}n_k \hat{\mathbf{\Sigma}}_k }{n}}\]
A estatística do teste da razão da máxima verossimilhança é dada por:
\[ \Lambda = \displaystyle{\dfrac{\displaystyle \prod_{k=1}^{K}|\hat{\mathbf{\Sigma}}_{k}|^{\dfrac{n_{k}}{2}} }{|\hat{\mathbf{\Sigma}}|^{\dfrac{n}{2}} }} \]
De forma que,
\[ \begin{eqnarray*} -2 \ln \left( \Lambda \right) &=& -2 \ln \left({\frac{\displaystyle \prod_{k=1}^{K}|\hat{\mathbf{\Sigma}}_{k}|^{\dfrac{n_{k}}{2}} }{|\hat{\mathbf{\Sigma}}|^{\dfrac{n}{2}} }} \right) = -\left [ \sum_{k=1}^{K}n_{k}\ln|\hat{\mathbf{\Sigma}}_{k}|-n\ln|\hat{\mathbf{\Sigma}}| \right ] \end{eqnarray*} \]
possui assintoticamente distribuição qui-quadrado, sob \(H_0\), com \(f = \displaystyle{\dfrac{(k-1)p(p+1)}{2}}\) graus de liberdade.
Dessa forma, podemos formular um teste de hipóteses
\[H_{0}:\mathbf{\Sigma}_{1} = \mathbf{\Sigma}_{2} = \cdots = \mathbf{\Sigma}_{k} = \mathbf{\Sigma} \hspace{0.5cm} \text{vs} \hspace{0.5cm} H_a: \text{pelo menos uma difere}\]
Ao nível de significância \(\alpha\), rejeitamos \(H_0\) em favor de \(H_a\) se observarmos
\[\chi_2 = -\left [ \sum_{k=1}^{K}n_{k}\ln|\hat{\mathbf{\Sigma}}_{k}|-n\ln|\hat{\mathbf{\Sigma}}| \right ] > \chi_f^2(\alpha)\]
em que \(\chi^2_f(\alpha)\) denota o \(100(1 − \alpha)\)-ésimo percentil superior de uma distribuição \(\chi^2_f\), sendo \(f = \displaystyle{\dfrac{(k-1)p(p+1)}{2}}\) gl.
A estatística do teste \(M\) de Box é dada por
\[M = (n - K) \ln|\mathbf{S}_p| - \sum_{k=1}^{K}(n_{k} - 1)|\mathbf{S}_k|,\]
com
\[\mathbf{S}_p = \dfrac{\sum_{k=1}^{K}(n_{k} - 1)\mathbf{S}_k}{n - K}\]
Admita
\[A = 1 - \dfrac{2p^2 + 3p - 1}{6(p + 1)(K - 1)} \left(\sum_{k=1}^{K} \dfrac{1}{n_k - 1} - \dfrac{1}{n - K}\right)\]
Pode ser demonstrado que, sob \(H_0\), a distribuição de \(AM\) aproxima-se da distribuição qui-quadrado com \(f = \displaystyle{\dfrac{(k-1)p(p+1)}{2}}\) gl.
Assim, rejeita-se a hipótese nula se \(AM \geq \chi^2_f(\alpha)\) para o nível de significância \(\alpha\), em que \(\chi^2_f(\alpha)\) denota o \(100(1 − \alpha)\)-ésimo percentil superior de uma distribuição \(\chi^2_f\), sendo \(f = \displaystyle{\dfrac{(k-1)p(p+1)}{2}}\) gl.
Seja
\[B = \dfrac{1 - a_1 - \dfrac{a}{b}}{a}\]
Outra aproximação, sob \(H_0\), é
\[BM \stackrel{H_0}{\sim} F(a,b)\]
com
\[a = \dfrac{p(p+1)(K-1)}{2}, \hspace{1cm} b = \dfrac{a + 2}{a_2 - a_1^2}\]
sendo
\[a_1 = 1 - A, \hspace{1cm} a_2 = \dfrac{(p-1)(p+2)}{6(K-1)}\left[ \sum_{k=1}^{K} \dfrac{1}{(n_k - 1)^2} - \dfrac{1}{(n - K)^2}\right]\]
Rejeita-se a hipótese nula se \(BM \geq F_{(a,b)}(\alpha)\) para o nível de significância \(\alpha\), em que \(F_{(a,b)}(\alpha)\) é o quantil superior \(100 \alpha%\) da distribuição \(F_{(a,b)}\).
dados = read.csv("https://raw.githubusercontent.com/tiagomartin/est022/refs/heads/main/dados/Bumpus_sparrows.csv", sep = ',',check.names = F, stringsAsFactors = T)
dados %>% str()'data.frame': 49 obs. of 6 variables:
$ Sobrevivencia : Factor w/ 2 levels "NS","S": 2 2 2 2 2 2 2 2 2 2 ...
$ C_total_(mm) : int 156 154 153 153 155 163 157 155 164 158 ...
$ Extensao_alar_(mm) : int 245 240 240 236 243 247 238 239 248 238 ...
$ C_bico_cabeca_(mm) : num 31.6 30.4 31 30.9 31.5 32 30.9 32.8 32.7 31 ...
$ C_umero_(mm) : num 18.5 17.9 18.4 17.7 18.6 19 18.4 18.6 19.1 18.8 ...
$ C_quilha_do_esterno_(mm): num 20.5 19.6 20.6 20.2 20.3 20.9 20.2 21.2 21.1 22 ...